如今,随着数字银行业务已成为常态,信用卡的使用已变得很普遍。随着这一增加,信用卡中的欺诈也对银行和客户都有一个巨大的问题和损失。正常的欺诈检测系统无法检测欺诈,因为欺诈者使用新技术出现欺诈。这创造了使用基于机器学习的软件来检测欺诈的需求。当前,可用的机器学习软件仅着眼于检测欺诈的准确性,但不关注检测的成本或时间因素。这项研究重点是银行信用卡欺诈检测系统的机器学习可伸缩性。我们已经比较了新提出的技术可用的现有机器学习算法和方法。目的是证明,使用较少的位训练机器学习算法将导致更可扩展的系统,这将减少时间,并且实施成本也较低。
translated by 谷歌翻译
面部检测和识别是人工智能系统中最困难,经常使用的任务。这项研究的目的是介绍和比较系统中使用的几种面部检测和识别算法的结果。该系统始于人类的训练图像,然后继续进行测试图像,识别面部,将其与受过训练的面部进行比较,最后使用OPENCV分类器对其进行分类。这项研究将讨论系统中使用的最有效,最成功的策略,这些策略是使用Python,OpenCV和Matplotlib实施的。它也可以用于CCTV的位置,例如公共场所,购物中心和ATM摊位。
translated by 谷歌翻译
由于其在崎rough的地形中的高机动性和遍历性,四倍的平台已成为一个积极的研究主题。但是,确定机器人是否可以通过裂缝环境以及如何准确计算其路径是高度挑战。此外,计算出的路径可能会穿过具有动态物体或环境对机器人或周围人危险的区域。因此,我们提出了一种新颖的概念方法,即通过虚拟现实(VR)中的用户指导路径计划进行教学四倍的机器人导航。我们的系统包含全球和本地路径计划者,使机器人可以通过学习的迭代来生成路径。 VR接口允许用户与环境进行交互,并在具有挑战性的情况下协助四足机器人。比较实验的结果表明,人与路径计划算法之间的合作可以使算法的计算速度平均增加35.58%,并且在测试方案中,路径长度(平均6.66%)的非急剧增加。此外,用户将VR接口描述为不需要物理需求(10中的2.3),并高度评估了其性能(10中的7.1分)。寻找不太最佳但更安全的路径的能力仍然需要在混乱和非结构化的环境中导航的任务。
translated by 谷歌翻译
如今,自动移动机器人为人类存在多余或太危险的许多地区提供支持。他们在探险,天然气行业,矿山,仓库等中成功证明了自己。但是,即使是腿部的机器人也可能陷入困境的地形条件下,需要人类的认知能力来浏览该系统。尽管游戏手柄和键盘方便用于轮式机器人控制,但3D空间中的四足机器人可以沿所有线性坐标和欧拉角移动,需要至少12个按钮才能独立控制其DOF。因此,需要更方便的控制接口。在本文中,我们介绍了超大型:一种与四足机器人直观的人类机器人相互作用的新型手势界面。如果没有其他设备,操作员可以通过手势识别识别3D空间中的四倍机器人的完全位置和方向控制,只有5个手势和6个DOF手动运动。实验结果表明,将5个静态手势分类为高精度(96.5%),可以准确预测手在三维空间中手的6D位置的位置。所提出的方法的绝对线性偏离根均方根偏差(RMSD)为11.7毫米,比第二个测试方法低50%,所建议方法的绝对角度偏差RMSD为2.6度,几乎为27%低于第二个测试方法。此外,进行了用户研究,以探索用户通过建议的手势接口从人类机器人交互中的主观体验。参与者将其与超级方面的互动评估为直观(2.0),不会引起挫败感(2.63),并且需要较低的身体需求(2.0)。
translated by 谷歌翻译
如今,腿部四足机器人的设计和开发是科学研究的一个非常活跃的领域。实际上,由于与其他移动机器人相比,腿部机器人能够适应严峻的地形和各种环境条件,因此变得流行。随着对腿部机器人实验的需求较高,更多的研究和工程师需要一种负担得起,快速的运动算法开发方式。在本文中,我们提出了一个新的开源四倍的机器人超狗平台,该平台具有12个RC伺服电机,NVIDIA JETSON NANO COMPUTER和STM32F4 DISCOVERY板。 HyperDog是四倍的机器人软件开发的开源平台,该平台基于机器人操作系统2(ROS2)和Micro-Ros。此外,HyperDog是完全由3D印刷零件和碳纤维建造的四倍的机器人狗,它使机器人的重量轻和强度良好。这项工作的想法是证明机器人开发的一种负担得起且可定制的方式,并为研究和工程师提供了腿部机器人平台,在该平台中可以在模拟和真实环境中测试和验证不同的算法。具有代码的开发项目可在GitHub(https://github.com/ndhana94/hyperdog_ros2)上获得。
translated by 谷歌翻译
自从深网的成立以来,训练模型所需的计算资源一直在增加。大规模数据集中的培训神经网络已成为一项具有挑战性且耗时的任务。因此,需要减少数据集而不损害准确性。在本文中,我们介绍了一种早期方法,即通过均匀聚类来减少数据集大小的新颖方法。所提出的方法基于将数据集划分为均匀簇的想法,并选择对准确性产生显着贡献的图像。我们提出了两种变体:用于图像数据降低的几何均匀聚类(GHCIDR)和合并GHCIDR在基线算法 - 通过均匀聚类(RHC)降低(RHC),以实现更好的准确性和训练时间。 GHCIDR背后的直觉涉及通过簇权重和训练集的几何分布选择数据点。合并GHCIDR涉及使用完整的链接聚类的群集合并相同的标签。我们使用了三个深度学习模型 - 完全连接的网络(FCN),VGG1和VGG16。我们在四个数据集中进行了两个变体 - MNIST,CIFAR10,Fashion-Mnist和Tiny-Imagenet。与RHC相同百分比的合并GHCIDR在MNIST,Fashion-Mnist,CIFAR10和Tiny-Imagenet上分别增加了2.8%,8.9%,7.6%和3.5%。
translated by 谷歌翻译
在本文中,我们介绍了一种早期方法的新颖变化,称为均质聚类算法,用于降低数据集大小。本文提出的方法背后的直觉是将数据集划分为均匀簇,并选择一些对准确性产生重大贡献的图像。选定的图像是训练数据的正确子集,因此是可读的。我们在基线算法RHC上提出了四个变体。第一种方法背后的直觉是,边界点有助于簇的代表。它涉及选择群集质心的最远的k和一个最近的邻居。在以下两种方法(KONCW和CWKC)中,我们介绍了簇权重的概念。它们是基于这样一个事实,即较大的簇贡献比较小的群集的贡献更多。最终变化是GHCIDR,它根据数据分布的几何方面选择点。我们在两个深度学习模型 - 完全连接的网络(FCN)和VGG1上进行了实验。我们在三个数据集中的四个变体中进行了实验:MNIST,CIFAR10和Fashion-Mnist。我们发现,GHCIDR的最佳准确度分别为99.35%,81.10%和91.66%,培训数据降低了87.27%,32.34%和76.80%,分别为MNIST,CIFAR10和时尚。
translated by 谷歌翻译
折射率是最常见的眼睛障碍,是可更正视觉障碍的关键原因,造成了美国近80%的视觉障碍。可以使用多种方法诊断折射误差,包括主观折射,视网膜镜检查和自动磨蚀器。尽管主观折射是黄金标准,但它需要患者的合作,因此不适合婴儿,幼儿和发育迟缓的成年人。视网膜镜检查是一种客观折射方法,不需要患者的任何输入。但是,视网膜镜检查需要镜头套件和训练有素的检查员,这限制了其用于大规模筛查的使用。在这项工作中,我们通过将智能手机连接到视网膜镜和录制视网膜镜视频与患者戴着定制的纸框架来自动化自动化。我们开发了一个视频处理管道,该管道将视网膜视频视为输入,并根据我们提出的视网膜镜检查数学模型的扩展来估算净屈光度错误。我们的系统减轻了对镜头套件的需求,可以由未经培训的检查员进行。在一项185只眼睛的临床试验中,我们的灵敏度为91.0%,特异性为74.0%。此外,与主观折射测量相比,我们方法的平均绝对误差为0.75 $ \ pm $ 0.67D。我们的结果表明,我们的方法有可能用作现实世界中医疗设置中的基于视网膜镜检查的折射率筛选工具。
translated by 谷歌翻译
在过去的几十年中,出现了一种趋势,指出在可移动,可编程和可转换机制中利用结构不稳定性。受钢制发夹的启发,我们将面板组件与可靠的结构相结合,并使用半刚性塑料板建造合规的拍打机构,并将其安装在束缚的气动软机器人鱼和无螺旋螺旋式的电动机驱动器上,以展示它的前所未有的优势。设计规则是根据理论和验证提出的。观察到与参考相比,气动鱼的游泳速度提高了两倍,对Untether Fish的进一步研究表明,对于不固定的兼容的游泳运动员,可损坏的速度为2.03 BL/S(43.6 cm/s),优于先前报告的最快的,其幅度为194%。这项工作可能预示着下一代符合下一代机器人技术的结构革命。
translated by 谷歌翻译
歧管假说(现实世界数据集中在低维流形附近)被认为是在非常高的维度问题中,在诸如视觉和言语等领域常见的非常高的维度问题中,机器学习算法的有效性。已经提出了多种方法将歧管假设纳入现代深度神经网络(DNNS)的先验,并取得了不同的成功。在本文中,我们提出了一种新方法,即远程学习者,以将基于DNN的分类器提前整合。对距离学习者进行了训练,以预测一个点与每个类别的基础歧管的距离,而不是类标签。对于分类,远程学习者然后选择与最接近预测类歧管相对应的类。距离学习者还可以将点识别为超出分布(属于两类),如果与最接近的歧管的距离高于阈值。我们在多个合成数据集上评估了我们的方法,并表明距离学习者与标准分类器相比学习了更有意义的分类边界。我们还评估了我们的方法对对抗性鲁棒性的任务,并发现它不仅要优于标准分类器,而且还可以与通过最先进的对抗训练进行培训的分类器相当。
translated by 谷歌翻译